310 research outputs found

    Paralelización de Algoritmos para Reconstrucción Rápida de Imagen de Resonancia Magnética a partir de Espacio K Submuestreado

    Get PDF
    La imagen de resonancia magnética es una potente técnica de imagen médica muy utilizada en la práctica clínica debido a que es capaz de medir las propiedades de los tejidos de forma no invasiva. El principal inconveniente es que el tiempo necesario para adquirir imágenes de alta calidad es elevado. Con el objetivo de agilizar dicho proceso se han presentado en la literatura numerosas técnicas prometedoras como la adquisición de espacios K submuestreados o la utilización de trayectorias no cartesianas. El problema de estas adquisiciones es que trasladan la complejidad a la reconstrucción de la imagen, lo que da lugar a algoritmos con una alta carga computacional. No obstante, dada la naturaleza paralela de los algoritmos de procesado de imagen, las unidades de procesamiento gráfico (GPU), usadas como dispositivos informáticos de uso general, permiten superar esta necesidad computacional, obteniéndose implementaciones más eficientes de dichos algoritmos. En este Trabajo Fin de Máster se implementan dos algoritmos ampliamente utilizados en la reconstrucción de imagen de resonancia magnética. Estos son, el algoritmo de optimización NESTA, utilizado para la reconstrucción de MRI a partir de espacios K submuestreados, y el algoritmo de la transformada de Fourier no uniforme (NUFFT), utilizado en adquisiciones no cartesianas. Las implementaciones planteadas son programadas mediante el lenguaje de programación OpenCL, ya que tiene la ventaja de permitir implementaciones independientes del tipo de dispositivo y del fabricante del mismo. Concretamente, se realiza especial énfasis en la utilización de GPUs. Al mismo tiempo, los desarrollos se integran en el framework OpenCLIPER, el cual facilita la implementación de algoritmos de procesado de imagen en OpenCL, para poder ser utilizados en pipelines más complejos de reconstrucción de MRI. Finalmente, se analizan las imágenes de resonancia magnética reconstruidas para validar ambos algoritmos y demostrar su utilidad en la reconstrucción de MRI. Además, se evalúa el rendimiento de los algoritmos en términos de tiempo de ejecución. Por un lado, este análisis demuestra la mejora obtenida en la implementación planteada del algoritmo NESTA en comparación con la implementación en MATLAB. Por otro lado, aunque con el algoritmo NUFFT no se reducen los tiempos, se plantean posibles optimizaciones del código para trabajos futuros.Departamento de Teoría de la Señal y Comunicaciones e Ingeniería TelemáticaMáster en Ingeniería de Telecomunicació

    Análisis de performance y consumo sobre sistemas embebidos multinúcleo

    Get PDF
    El avance tecnológico de los últimos años y la cantidad de datos que actualmente un sistema debe procesar, les exigen a los sistemas de tiempo real actuales una mayor capacidad de cómputo. Para hacer frente a esta demanda, surgieron los procesadores multinúcleo orientados a aplicaciones embebidas. En el siguiente trabajo se estudiarán puntualmente los sistemas multinúcleos asimétricos, y se presentará un análisis comparativo entre dos procesadores pertenecientes a la familia Cortex-M. Los puntos de análisis incluyen los tiempos de latencia entre núcleos, utilizando distintas técnicas de comunicación y el consumo de energía.VIII Workshop Procesamiento de Señales y Sistemas de Tiempo Real (WPSTR).Red de Universidades con Carreras en Informática (RedUNCI

    Modelos numéricos para la simulación y el análisis de señales atmosféricas

    Get PDF
    Los rayos son la principal fuente de radiación de origen natural en la atmósfera terrestre, dado que cada segundo, del orden de un centenar de ellos descargan sobre la superficie de la Tierra, siendo el fenómeno más frecuente en unas regiones que en otras. Dichas descargas emiten la mayor parte de dicha radiación en las bandas ELF y VLF, bandas en la cuales las señales presentan una baja atenuación. La radiación emitida da lugar, en la banda ELF a las resonancias de Schumann y en la banda VLF a campos resonantes en la guía formada por la ionosfera y la superficie de la Tierra. Estas señales nos permiten inferir, por una parte, las propiedades de la ionosfera, y por otra la ubicación donde se ha producido la descarga del rayo. Entre los sistemas detectores de descargas, se puede establecer una clasificación en dos grupos. Un grupo es el formado por redes multiestación, donde una descarga es detectada en varias estaciones, proporcionando la localización de la descarga con precisión, a través de un procedimiento de triangulación. Tales sistemas presentan el inconveniente de la necesidad de cubrir homogéneamente el área de interés al efecto de detectar con precisión el mayor número de descargas. En este sentido, los costes asociados al mantenimiento y sincronización de las estaciones no es baladí. Otro grupo se encuentra formado por estaciones individuales de detección de descargas, las cuales son menos precisas pero el coste de mantenimiento es muy inferior al de una red. En adición hay situaciones donde únicamente se puede hacer uso de este tipo de estaciones. En todos los casos, estos sistemas funcionan analizando la señal recibida en la banda VLF; estas señales son llamadas "radioatmosferics" o "sferics". En el presente trabajo se presenta en primer lugar un modelo numérico tridimensional en diferencias finitas en el dominio del tiempo de la guía de ondas formada por la superficie de la Tierra y la ionosfera para el estudio de la propagación de señales en la banda VLF, considerando el perfil de conductividad de la ionosfera y la anisotropía inducida por el campo magnético terrestre.El campo magnético terrestre actúa sobre las partículas cargadas de la ionosfera dando lugar a las corrientes de Hall, Pedersen y la conductividad paralela al campo magnético. Dichas corrientes se introducen mediante sus correspondientes conductividades y su campo eléctrico asociado. Esto hace que se modifique la técnica FDTD convencional para ubicar en las celdas las correspondientes componentes de campo eléctrico que se encuentran localizadas en otras posiciones de la celda FDTD. También se modifica el procedimiento de integración temporal para ubicar correctamente las componentes del campo en sus correspondientes instantes temporales, permitiendo desarrollar un procedimiento iterativo FDTD estable, deduciendo la estabilidad del nuevo procedimiento teóricamente. Esta técnica se aplica a la modelización de las descargas en la guía de ondas formada por la ionosfera y la superficie de la Tierra y permite, además, simular con precisión las señales detectadas, las cuales se han propagado a través de la guía, permitiendo así, analizar cambios en la ionosfera. Por otro lado, permite estudiar las técnicas de geolocalización de descargas procedentes de otros investigadores, realizando una comparación de la precisión de las mismas con resultados simulados. Finalmente, se desarrolla una nueva técnica basada en la pendiente de fase de la señal recibida. Para comparar tales técnicas con medidas propias, se diseña un sistema de medición de descargas portátil de tal manera que permite obtener señales en diferentes entornos de medida y nivel de ruido electromagnético. En este sentido, el proceso de detección de descargas presenta diversos problemas, por una parte los asociados a la existencia de ruido, en las bandas de frecuencia de interés, procedente sobretodo de la actividad industrial, y por otra la referente a la recepción de múltiples señales procedentes de múltiples distancias, dada las numerosas descargas que se generan cada segundo

    Diseño e implementación sobre hardware reconfigurable de una arquitectura para la emulación en tiempo real de redes neuronales celulares

    Get PDF
    [SPA] En esta Tesis se propone el diseño y la implementación sobre hardware reconfigurable de una arquitectura para la emulación en tiempo real de redes neuronales celulares (CNN). El proceso de diseño de la arquitectura, comienza con el planteamiento de diferentes métodos de discretización del modelo continuo original de la red CNN. A partir de dichos métodos se obtienen distintas aproximaciones que son simuladas y comparadas entre sí con el fin de comprobar su funcionalidad y determinar cuál de ellas proporciona los mejores resultados con el menor coste computacional. La aproximación con mejores prestaciones es elegida para desarrollar el algoritmo de cómputo que describe la arquitectura hardware de la red CNN. La metodología de desarrollo utilizada, explora diferentes alternativas para optimizar la arquitectura CNN desde el punto de vista de su implementación hardware sobre FPGAs. A partir de la paralelización y adaptación del algoritmo de cómputo se desarrollan dos arquitecturas hardware diferentes denominadas Carthago y Carthagonova. Estas arquitecturas describen el funcionamiento de una Celda CNN, desenrollada en Etapas, que permite emular secuencialmente el procesamiento realizado por las redes CNN. La principal característica de estas arquitecturas es la capacidad que tienen para procesar la información en flujo de datos y en tiempo real. Las soluciones propuestas tiene como principal objetivo conseguir el mejor equilibrio entre la velocidad de procesamiento y el consumo de recursos hardware de la FPGA, así como evitar el uso de dispositivos de memoria externa que reducen la velocidad de procesamiento del sistema e incrementan su tamaño. Se proponen diferentes alternativas para implementar las arquitecturas sobre dispositivos FPGAs. Una de ellas consiste en utilizar una técnica de sincronización self-timed, eficiente en área-tiempo, que es definida mediante un lenguaje de descripción hardware tradicional (VHDL), instanciando primitivas de bajo nivel y realizando el emplazamiento de los componentes de forma manual. Otra alternativa consiste en una descripción en VHDL estructural a nivel RTL y sincronización convencional, donde los componentes self-timed son sustituidos por componentes estándar. Se propone además la implementación de una de las arquitecturas sobre un computador reconfigurable de altas prestaciones (HPRC), compuesto por un microprocesador de propósito general y un coprocesador basado en FPGAs, encargado de acelerar la ejecución de los algoritmos mediante hardware. El particionamiento hardware/software y el proceso de co-diseño se realizan usando las herramientas de desarrollo a nivel de sistema (ESL) de Impulse Accelerated Technologies (Impulse-C) y la plataforma HPRC DS1002 de DRC Computers. Los principales resultados obtenidos de las diferentes implementaciones son mostrados con el fin de demostrar la funcionalidad de las arquitecturas y analizar sus principales prestaciones. Las diferentes combinaciones consideradas, entre técnicas de implementación y las arquitecturas propuestas, muestran que la arquitectura Carthagonova, implementada a nivel estructural, presenta importantes ventajas a considerar. En primer lugar, la arquitectura facilita la emulación de redes CNN complejas, compuestas por cientos de miles de millones de neuronas, sobre sistemas embebidos basados en FPGAs. En segundo lugar, el excelente compromiso alcanzado entre velocidad de procesamiento y consumo de recursos hardware hace que sea una interesante solución a considerar frente a otras alternativas de la literatura. Finalmente, la versatilidad y las prestaciones de la arquitectura diseñada permiten dar soporte al desarrollo de sistemas de procesamiento de vídeo en tiempo real y al diseño de aplicaciones basadas en modelos neuronales bioinspirados. La arquitectura CNN propuesta es utilizada para desarrollar un modelo artificial de la primera sinapsis de la retina, incorporando algunas de las principales características de los circuitos neuronales considerados. El modelo está basado en los campos receptores de las células bipolares y su objetivo es emular, mediante hardware reconfigurable, el procesamiento espacial básico realizado por la retina. Al igual que ocurre en la primera sinapsis de la retina, se observa que el modelo artificial propuesto lleva a cabo la detección del contraste y la discriminación visual de detalles en función de la influencia de los factores de convergencia y de inhibición lateral de los circuitos neuronales implementados. Finalmente, se propone el diseño y la implementación de un sistema de cómputo distribuido, basado en múltiples FPGAs, que permite el desarrollo de aplicaciones embebidas de procesamiento de vídeo en tiempo real con redes CNN multi-capa (ML-CNNs) complejas y de gran tamaño. El sistema procesa la información de vídeo en flujo de datos (en modo progresivo) y proporciona una salida de vídeo estándar compatible con el formato VGA industria. [ENG] This thesis proposes the design and development of a hardware architecture for real-time emulation of non-linear multilayer Cellular Neural Networks (CNN). This approach is focused on CNN implementation on reconfigurable hardware architectures. The architecture design begins from a discrete model obtained from different transformations made to the original continuous model of CNN. Each discrete approach is simulated and compared with the rest of approaches in order to verify their functionality and to find the approach which best emulates the continuous model at minimum computational cost. The best discrete model found is then used to develop the hardware architecture of the CNN. The development methodology used, explores different alternatives to optimize the architecture from the point of view of its hardware implementation on FPGAs. The architectures Carthago and Carthagonova are developed from the hardware adaptation and parallelization of the sequential algorithm that describes the functionality of the selected CNN discrete model. These architectures are based on an unrolling cell which is employed to emulate CNNs with large number of neurons. The key characteristic of these architectures is their capability to process information in real time in a sequential manner. The proposed solution aims to find a suitable tradeoff between area and speed, reducing the use of hardware resources on the FPGA and avoiding the use of external memory devices which make slower the processing rate and higher size and cost. We propose different solutions to the internal implementation of both architectures on an FPGA. The first one is a novel self-timed architecture, areatime efficient. It is described using traditional Hardware Description Languages (HDL) from low level hardware primitives instantiation and manual placement. The second one consists in a high level description in structural VHDL using conventional synchronization, instead of self-timed blocks. We also propose an implementation architecture that makes use of a High Performance Reconfigurable Computer (HPRC), combining general purpose microprocessors with custom hardware accelerators based on FPGAs, to speed up execution time. The hardware/ software partitioning and co-design process are carried out using high level design tools. The architecture Carthago is implemented using Electronic System Level (ESL) tools from Impulse Accelerated Technologies and the DS1002 HPRC platform from DRC Computers. The most relevant results obtained from different implementations are shown in order to verify the functionality of the proposed neural hardware architectures and to analyze their performance. The best combination of architecture and implementation model, the Carthagonova-structural, presents some important advantages. Firstly, the architecture is developed to help emulating highperformance discrete CNNs with hundreds or millions of neurons on embedded FPGA-based systems. Secondly, due to its balanced trade-off between speed and area, this architecture is an interesting alternative to consider among others in the literature. Finally, its versatility facilitates the export of neural hardware architecture to applications such as signal and image processing, implementation of the neurological models inspired on human systems, etc. The hardware architecture proposed is used to build a CNN-based model of the fist synapse of the retina, which incorporates the main neural circuits found in the different retinal regions. The aim of this bioinspired model is to implement the basic spatial processing of the retina in reconfigurable hardware. The model is based on the bipolar cells receptive fields and mimics the retinal architecture achieving its processing capabilities. As occurs in the processing of first synapse of the retina, it is observed that contrast detection and detail resolution are influenced by the convergence factor of neurons and by lateral inhibition, which are specific parameters of each neural circuit. We also propose the design and implementation of an embedded system based on multiple FPGAs that can be used to process real time video streams for applications that require the use of large Multi-Layer CNNs (ML-CNNs). The system processes video in progressive mode and provides a standard VGA output format. The main features of the system are determined by using a distributed computing architecture, based on Processing Modules (PM), which facilitates system expansion and adaptation to new applications. Several FPGA-based processing modules can be cascaded together with a video acquisition stage and an output interface to a frame grabber for video output storage, all sharing a common communication interface. Each PM is composed by an FPGA board that can hold one or more CNN layers. The total computing capacity of the system is determined by the number of MP used and the amount of resources available in the FPGAs. The pre-verified CNN components, the modular architecture, and the expandable hardware platform provide an excellent workbench for fast and confident developing of CNN applications, based on traditional cloned templates, but also time-variant and space-variant templates.Universidad Politécnica de Cartagen

    Reconstrucción y cuantificación de estudios SPECT en animal pequeño

    Get PDF
    [spa] Los sistemas SPECT de animal pequeño alcanzan una resolución espacial inferior al milímetro. Para conseguirlo, es necesario utilizar colimadores pinhole, ya que la imagen del objeto proyectada en la gammacámara a través del pequeño orificio del colimador puede estar ampliada respecto al objeto. Con el fin de optimizar el proceso de reconstrucción y obtener resoluciones submilimétricas utilizando equipos de pequeño formato equipados con un colimador pinhole, es necesario utilizar métodos de reconstrucción iterativos. Estos algoritmos ofrecen una calidad de imagen superior y una mejor exactitud en la cuantificación que los métodos de reconstrucción analíticos, al poder corregir las diferentes degradaciones sufridas en el proceso de formación de la imagen. A continuación se detalla el trabajo desarrollado y los principales resultados obtenidos para conseguir este objetivo: 1. Implementación de un programa de calibración para calcular los parámetros geométricos que describen la adquisición de un equipo SPECT equipado con colimador pinhole. 2. Desarrollo de un algoritmo de reconstrucción iterativa OSEM para la reconstrucción de estudios SPECT con colimador pinhole. 3. Adaptación el algoritmo de reconstrucción y el programa de calibración a un equipo SPECT con colimador pinhole de pequeño formato desarrollado en nuestro centro. La resolución tomográfica del equipo fue de 1 mm para radios de adquisición pequeños. Las imágenes reconstruidas de estudios en ratones muestran la viabilidad del equipo para su utilización con pequeños animales. 4. Incorporación en la matriz de transición del sistema la geometría del sistema, la penetración septal a través del colimador y la respuesta del detector. La resolución, el contraste y los coeficientes de recuperación mejoran al incorporar la penetración septal respecto a la modelización geométrica, aunque la mejora más importante se obtuvo al incluir la respuesta del detector. El número de iteraciones utilizadas en la reconstrucción debe limitarse para evitar la aparición de artefactos de anillo. Estos artefactos son de mayor importancia cuando la modelización del sistema incorpora la geometría, la penetración septal y la respuesta del detector. 5. Comparación del algoritmo de reconstrucción desarrollado con un algoritmo de reconstrucción que calcula la matriz de transición con técnicas de Monte Carlo. El tiempo de cálculo de la matriz de transición del sistema con la aproximación analítica fue tres órdenes de magnitud inferior al de la aproximación por Monte Carlo. La resolución y el contraste de las imágenes reconstruidas mediante ambas aproximaciones fueron similares. Las imágenes reconstruidas con el modelo Monte Carlo presentaban una relación señal/ruido sensiblemente más baja, posiblemente asociada a problemas de precisión en el cálculo de los elementos de matriz por la utilización de un número insuficiente de historias de fotones en el cálculo.[eng] Small animal SPECT systems can achieve a spatial resolution of less than 1 mm. Such resolution is possible thanks to pinhole collimators, which can amplify the gamma camera projection of the object, and by using iterative reconstruction methods. These methods improve image quality and offer better quantification accuracy than analytic reconstruction methods, by correcting the different degradations that occur during the image formation process. The work developed and the main results are detailed as follows: 1. A calibration program to calculate geometric parameters that describe the acquisition process of a SPECT system with a pinhole collimator was implemented. 2. An OSEM iterative reconstruction algorithm for SPECT studies acquired with a pinhole collimator was developed. 3. The reconstruction algorithm and the calibration program were adapted to an in-house developed small SPECT device with a pinhole collimator. Tomographic resolution was 1 mm for small acquisition radii. Image reconstruction of mice studies showed the viability of using the equipment with small animals. 4. System geometry, septal penetration through the collimator and detector were incorporated response to the transition matrix. In the first approach, the system geometry was incorporated. Resolution, contrast, and recovery coefficients improved when septal penetration was modeled, although the greatest improvement was obtained when detector response was included. Iterations had to be limited to avoid the appearance of ring-artifacts. 5. The reconstruction algorithm developed (analytical model) was compared with a reconstruction algorithm which calculates the transition matrix based on Monte Carlo techniques (Monte Carlo model). The computation time of the transition matrix system using the analytical approach was three orders of magnitude lower than the Monte Carlo approach. Resolution and contrast of the reconstructed images using the two approaches were similar. Images reconstructed with the Monte Carlo model presented a lower signal-to-noise ratio than images reconstructed with the analytical model, possibly due to accuracy problems associated with the matrix elements because of an insufficient number of photons in the calculation

    Optimización de recursos hardware para la operación de convolución utilizada en el procesamiento digital de señales

    Get PDF
    Esta tesis presenta varias arquitecturas sobre la unidad MAC (multiplica–acumula) para la optimización de la operación de convolución, que es ampliamente utilizada en el procesamiento digital de señales, sobre varios dispositivos electrónicos de bajo coste. Básicamente esta optimización se centra en las FPGA de Xilinx Spartan 3 y Spartan 6, utilizando aritmética redundante, en particular la aritmética carry–save. Este tipo de aritmética no se suele utilizar en las FPGAs debido a que aumenta el área consumida, pero en esta investigación se ha demostrado experimentalmente que cuando el número de operaciones MAC a realizar es elevado, como es el caso de la convolución de dos señales, el uso de la aritmética CSA resulta eficiente, ya que disminuye significativamente los tiempos empleados, sin un aumento excesivo de los recursos utilizados de la FPGA. Por otro lado, también se han estudiado otros dispositivos electrónicos que suelen ser empleados en el procesamiento digital de señales, tales como DSP o GPP, realizando una comparación de los tiempos empleados de las FPGAs respecto a estos dispositivos.This Thesis presents several architectures of the multiply-accumulate unit (MAC) to optimize the convolution operation, which is widely used in digital signal processing, on several low-cost electronic devices. This optimization is mainly focused on Xilinx Spartan- 3 and Spartan-6 FPGAs, using redundant arithmetic, specifically the carry-save arithmetic (CSA). This type of arithmetic is not usually used on FPGAs since its high consumption of area resources, but this research shows that if the number of MAC operations developed is high, as the case of the convolution of two signals, the use of CSA arithmetic is efficient, since it decreases significantly the execution times without an excessive increase of the resources used in the FPGA. On the other hand, other electronic devices as DSP or GPP, usually used in digital signal processing, have been studied. A comparation of execution times on FPGAs and these devices has been included

    Técnicas de igualación no lineal vía estructuras en escalera

    Get PDF
    Los esquemas de igualación no lineal permiten aumentar significativamente la velocidad de transmisión de datos en canales dispersivos, y particularmente, en los que además hay no lineales. Sus inconvenientes más importantes son dos: su alta complejidad y su baja velocidad de convergencia. Los esquemas no lineales necesitan una gran potencia de cálculo para poder llevar a cabo el elevado número de operaciones necesarias por dato adquirido en el receptor. Por otra parte, algunos esquemas no lineales como el perceptrón multicapa necesitan de un gran número de datos para poder llegar a la convergencia y, además, corren el riesgo de caer en mínimos locales de convergencia, lo que los hace poco prácticos en comunicaciones. Otros esquemas, como los filtros de Volterra, son menos propensos (por su arquitectura) a caer en mínimos locales, pero son dificiles de ajustar para que converjan. En algunas situaciones no es necesario el uso de esquemas no lineales para alcanzar probabilidades de error razonablemente bajas. Muchas veces se puede considerar que el canal es localmente lineal. Si se utilizan esquemas basados en funciones lineales que actúen localmente e independientes unos de otros, se consiguen resultados satisfactorios. Incluso cuando el canal presenta no linealidades, es posible utilizar esquemas lineales que, actuando en paralelo, se especialicen en zonas diferentes del espacio. En esta Tesis se examinará un esquema de este tipo, que es el esquema en escalera. Este esquema se basa en una cadena de decisiones bit a bit a partir de las cuales se lleva a cabo la decisión multinivel. El procedimiento bit a bit del esquema en escalera permite introducir algoritmos de gradiente basados en objetivos binarios, lo que permite equilibrios en compromisos en prestaciones frente a velocidad. Sin embargo, algunos objetivos, como la Entropía Relativa, sólo convergen bajo ciertas condiciones iniciales, lo que dificulta el funcionamiento del sistema. Aquí se proponen maneras sencillas de facilitar la convergencia sin necesidad de introducir restricciones en el sistema. El esquema en escalera facilita la inserción de algoritmos no lineales sólo en las zonas del espacio que lo necesiten, dejando las otras para clasificación lineal. Por otro lado, se han desarrollado sistemas de clasificación inspirados en la Máquina de Vectores de Soporte, que ha dado muy buenos resultados en problemas de clasificación, pero que no es adaptativa. En esta Tesis desarrollamos variantes de este algoritmo basados en métodos de selección de muestras, que han proporcionado buenos resultados en velocidad de convergencia y capacidad de seguimiento de canales no estacionarios.Nonlinear equalization schemes sigriificanfly enable data transmission speed to be increased in dispersive channeis, and particularly in those which are also nonhinear. Two are its rnost important drawbacks: its bigh complexity and its low convergence rate. Nonlinear schernes need high computational power so as to be able to carry out the big number of necessary cornputations per sample. On the other hand, sorne nonhinear schernes such as the multilayer perceptron not only need a large amount of data in order to reach convergence, but they also run the risk of failing down to local minima for convergence, which makes thern be little practical in cornrnunications. Other schernes, such as Volterra ftlters, are less prone to fail down to local rninima thanks because of their architecture, but they do not easily adjust for reaching convergence. In sorne situations, the use of nonhinear schernes for reaching reasonably low error probabilities is not necessary. In many cases one can consider that the channel is localy linear. When schernes based upon linear functions operating localy and independently from one another are used, one obtains satisfactory results. Even if the channel has nonlinearities, it is possible to use linear schemes which, operating in parallel, specialize in dlifferent areas of dic space. Iii this Thesis this kind of scherne, called staircare scheme, will be analysed. It is based on a bit by bit decisions chain from which one carnes out dic decision iii a communications multilevel. The bit by bit staircase scherne procedure allows gradient algorithms based upon binary objectives to be introduced, which enables balancing commitments performance and speed. Nevertheless, sorne objectives, such as Relative Entropy, only converge under certain iiiitial conditions which hinder the running of the system. Here they suggest easy ways of making convergence easy without the need of introducing any restrictions in the system. The staircase scherne makes nonhinear algorithm insertion easier only in those arcas of the space where it is needed, leaving the remaining nonlinear algorithms to linear classification. On dic other hand, classification systems inspired by the Support Vectors Machine have shown good results in classification problems tough they are not adaptative. In this thesis wc will develop variants of this algorithm based on sarnple selection methods which have fournished good resulta in speed convergence as wdll as iii their nonstationary channel tracking abilty

    determinación de la cinemática de objetos móviles bajo condiciones controladas mediante imágenes empleando técnicas de flujo óptico

    Get PDF
    En las últimas tres décadas ha surgido un gran interés por investigar acerca de la visión por computador. A lo largo del tiempo la computación fue creciendo en gran medida, lo cual permitió que fuese más asequible al público en general, a raíz de esto surgieron soluciones a problemas ajenos a la robótica, uno de estos fue la estimación del flujo óptico en secuencia de imágenes. En el presente trabajo se evaluó la estimación de la cinemática de los objetos móviles empleando el flujo óptico bajo condiciones controladas, en este caso en particular la luminosidad, distancia focal, contraste, brillo, directividad de luz, color de objeto, distancia a la fuente de luz, inclinación, excentricidad, sombras, opacidad, y parámetros fotográficos de la cámara, se logran mantener con cambios mínimos creando un entorno vigilado y de esta forma no crear variaciones indeseadas en la imagen. Para generar el movimiento del objeto de forma controlada es decir que la variación en su velocidad sea mínima, se desarrolló un dispositivo electromecánico el cual fue diseñado con el propósito de generar velocidades constantes, posteriormente se construye una base de datos con información de distancia, tiempo, a partir de estos dos parámetros se calcula la velocidad y se realiza un análisis metrológico para establecer valores de referencia y realizar una comparación respectiva con los valores obtenidos en las dos técnicas de flujo óptico (Lucas-Kanade y Horn-Schunck). Las técnica de Lucas-Kanade y Horn-Shunck son métodos diferenciales que se encuentran contenida en la subcategoria de método local y método global respectivamente. A partir de los métodos mencionados se cimenta una base a la teoría matemática que cumple con la necesidad de minimizar y alcanzar un mínimo global, que asegura de gran manera la unicidad para dicha solución. Los resultados obtenidos del siguiente trabajo permiten estimar el nivel de confianza, error, y limitaciones presente en los algoritmos en cada una de las técnicas

    Memorias matriciales correlacionadas cuánticas, simples y mejoradas: una propuesta para su estudio y simulación sobre GPGPU

    Get PDF
    En este trabajo se desarrollan-en orden-los fundamentos de la Física Cuántica, y de la Computación Cuántica, una noción completa de las arquitecturas multicapa tolerante a fallos para la implementación física de una computadora cuántica, para completar los primeros cuatro capítulos con las técnicas propias para la simulación de este nuevo paradigma sobre placas multicore del tipo General-Purpose Computing on Graphics Processing Units (GPGPU). La segunda parte de este trabajo consiste en los tres capítulos inmediatamente siguientes, los cuales suman 10 innovaciones en este campo, a saber: 1. el Proceso de Ortogonalización Booleano (POB) con su inversa, 2. el Proceso de Ortogonalización de Gram-Schmidt Mejorado (POGSMe) con su inversa, 3. el Proceso de Ortogonalización Cuántico (POCu) con su inversa, 4. la Red Ortogonalizadora Booleana Sistólica (ROBS), 5. la Red Ortogonalizadora Cuántica Sistólica (ROCS), y 6. una métrica que llamamos Tasa Dimensional de Entrada-Salida (TDES) la cual fue creada para monitorear el impacto del mejorador para la estabilidad del Proceso Ortogonalizador de Gram-Schmidt en el costo computacional final. 7. una versión mejorada de las ya conocidas Memorias Matriciales Correlacionadas Booleanas (MMCB), es decir, la MMCB mejorada (MMCBMe) en base al innovador Proceso de Ortonormalización Booleano (POB) del Capítulo 5, 8. la Memoria Matricial Correlacionada Cuántica (MMCCu), y 9. la MMCCu Mejorada (MMCCuMe) en base al Proceso de Ortogonalización Cuántico (POCu) implementado en forma sistólica y conocida como la Red Ortogonalizadora Cuántica Sistólica (ROCS) del Capítulo 5.10. el Capítulo 7, el cual contiene las simulaciones computacionales, las cuales verifican fehacientemente la mejora en la performance de almacenamiento como resultado de aplicar el POCu a las MMCCu, así como una serie de simulaciones relativas a arreglos uni, bi y tridimensionales, los cuales representan señales, imágenes (multimediales, documentales, satelitales, biométricas, etc.) y video o bien imágenes multi e hiper-espectrales satelitales, tomografías o resonancias magnéticas seriadas, respectivamente. Dichas simulaciones tienen por objeto verificar los atributos de ortogonalización de los algoritmos desarrollados. Dado que es la primera vez que en la literatura se realizan este tipo de simulaciones en GPGPU para esta tecnología, el Capítulo 7 representa en si mismo el décimo aporte del presente trabajo a esta área del conocimiento. Un último capítulo reservado a conclusiones parciales por capítulo y generales del trabajo como un todo.Facultad de Informátic
    corecore